2,381 research outputs found

    Estado del arte revisión sistemática de la seguridad orientada a Rest

    Get PDF
    Trabajo de InvestigaciónSe analizaron los principales tipos de ataques informáticos, se describieron las vulnerabilidades más conocidas y los tipos de seguridad recomendados en los servicios Web REST, se hizo la revisión sistemática de las publicaciones que estudian los tipos de vulnerabilidad de Servicios Web REST y se clasificaron con base a una taxonomía de vulnerabilidades con el fin de detallar su estructura.INTRODUCCIÓN 1. SERVICIOS WEB REST 2. SEGURIDAD WEB 3. VULNERABILIDADES DE LOS SERVICIOS WEB 4. METODOLOGÍA 5. RESULTADOS 6. CONCLUSIONES 7. RECOMENDACIONES REFERENCIASPregradoIngeniero de Sistema

    Prototipo de librería para la implementación de integraciones usando arquitecturas orientadas a microservicios

    Get PDF
    En este proyecto se implementará un prototipo de librería que permita hacer integraciones entre productos de software que se comuniquen a través de servicios web tales como SOAP o API REST para que ellos puedan comunicarse de una manera ágil y rápida, es el objetivo de esta investigación utilizando las tecnologías actualmente disponibles que permitan la integración entre servicios web de manera automática. Los sistemas SOAP o API REST pueden comunicarse de manera bidireccional sin importar el tipo de servicio que se esté integrando. Este prototipo estará en la capacidad de: - Servir como interfaz entre servicios dentro de la misma aplicación o una aplicación externa haciendo que el desarrollo se haga de forma más rápida. - Convertirse en el primer paso para a futuro lograr que usuarios puedan integrarse con otras plataformas de manera transparente. - Instar a que los programadores puedan centrarse en el desarrollo específicos de la aplicación web, disminuyendo tiempo al momento de realizar el mapeo entre los dos servicios

    Revisión sistemática para integración de datos en geolocalización

    Get PDF
    Visita Técnica InternacionalSe realizó una revisión sistemática para la integración de datos en geolocalización con la finalidad de identificar y proponer alternativas de implementación de este concepto en la ciudad de Bogotá. Encontrando que en Colombia es muy poco explotado este concepto, para ello se propone una alternativa por cada sector abarcado, los cuales son educación, turismo y salud, esto es posible gracias a una recolección de información a nivel nacional e internacional donde se descubrió los diferentes componentes que se encuentran involucrados al momento de realizar una implementación de una integración de datos de geolocalización.INTRODUCCIÓN 1. ANTECEDENTES Y JUSTIFICACIÓN 2. PLANTEAMIENTO Y FORMULACIÓN DEL PROBLEMA 3. MARCO DE REFERENCIA 4. OBJETIVOS 5. ALCANCES Y LIMITACIONES 6. METODOLOGÍA 7. DESARROLLO DE LA METODOLOGÍA 8. CONCLUSIONES 9. RECOMENDACIONES BIBLIOGRAFÍA ANEXOSPregradoIngeniero de Sistema

    Integración de las APIs REST de OSF y GitHub mediante una Aplicación Orientada a Servicios para publicar contenido Open Science

    Get PDF
    Integrar las APIs REST de OSF y GitHub mediante una aplicación orientada a servicios para publicar contenido Open Science.En los últimos años se ha hecho evidente la necesidad de adoptar las políticas de movimientos sin fines de lucro que buscan lograr que los componentes de una determinada investigación científica no sean centralizados. Por lo general los grandes conglomerados invierten enormes recursos para desarrollar nuevas técnicas, tecnologías, metodologías u otro elemento, sin embargo, pocas personas tienen acceso a dicha información. La Unión Europea durante los últimos años le ha dado gran importancia al tema e inclusive va más allá, pues en palabras de sus representantes el hecho de que el conocimiento científico sea centralizado genera desigualdades muy graves y es aquello que impide a los países en vías de desarrollo integrarse a nuevos modelos de generar conocimiento; es entonces cuando la Unión Europea apuesta por un movimiento llamado Open Science que permite mitigar los problemas subyacentes de aquella centralización. El presente trabajo consta de tres capítulos y busca elaborar una arquitectura de software que permita integrar los servicios de dos herramientas relacionadas a los términos Open Source y Open Science. En dicha arquitectura se pretende aplicar técnicas DevOps y tecnologías modernas que permitan acceder a elementos de investigaciones científicas que se encuentran en colecciones de Open Science Framework y en repositorios de código en GitHub. Previo al desarrollo de la arquitectura se llevó a cabo una revisión sistemática de literatura SLR para conocer la información relevante acerca de métodos de publicación de contenido abierto y las herramientas que pueden ayudar a lograr tal fin. En el desarrollo de los componentes de la plataforma se usaron varias tecnologías que ayudaron a que la arquitectura resultante sea eficiente. Finalmente se realizó el análisis del producto de software a ser evaluado, mediante los requisitos según el estándar IEEE 830 y las métricas de la calidad en uso según la ISO/IEC 25022. También se monitorearon los componentes y servicios de la arquitectura para verificar su correcto funcionamiento, entre los elementos que fueron evaluados están: Clúster AWS, Contenedor Docker, Aplicación Nativa, Base de Datos MySQL y otros componentes de la arquitectura final.Ingenierí

    Hacia la Armonización de Modelos de Requisitos de Seguridad

    Get PDF
    La ingeniería de requisitos de seguridad se ha convertido en un campo vital en el desarrollo de sistemas informáticos. En la actualidad, se utilizan lenguajes, técnicas, artefactos, diagramas; resumidos todos como modelos, para la representación de requisitos de seguridad desde las etapas más tempranas del desarrollo. En el presente trabajo se describen los pasos a seguir en un proceso de armonización de dichos modelos. Desde la identificación de la necesidad de armonización, hasta la estructura de una propuesta inicial para llevarla a cabo, basados en los conceptos de la Ingeniería Dirigida por Modelos (MDE). Como parte de esos pasos, se hace especial hincapié en la presentación de los resultados de una revisión sistemática de la literatura en el campo tratado; así como los de una comparación entre los modelos obtenidos, orientada a justificar la necesidad y viabilidad del proceso armonizador.Sociedad Argentina de Informática e Investigación Operativ

    Tecnología y Accesibilidad Volumen 2

    Get PDF
    Prologar el texto de las actas del VII Congreso Internacional sobre Aplicación de Tecnologías de la Información y Comunicaciones Avanzadas (ATICA2016) y de la IV Conferencia Internacional sobre Aplicación de Tecnologías de la Información y Comunicaciones para mejorar la Accesibilidad (ATICAcces 2016), no solo es una tarea privilegiada sino también una responsabilidad, en especial con la sociedad que solicita tecnologías inclusivas y comunicaciones efectivas en pro de la equidad. Es interesante señalar que el anhelo por consolidar categorías que favorezcan la participación social ha sido el sueño y trabajo de muchos, por ejemplo vale recordar que en este año del Congreso se cumplen 500 desde que Tomás Moro ofreciera al mundo su voz en “UTOPIA”, donde en la idealización de su isla estampó una cultura de trabajo, cooperación y democracia, sin descuidar que proclamó a Amauroto, la capital de su República, como una de total accesibilidad para que todo ciudadano pueda llegar y gozar de ella, con suficiente agua para todos; su localidad estaba constituida por casas que eran custodiadas por cerraduras tan simples que cualquiera podía ingresar o salir de ellas ya que el verdadero tesoro de toda persona era su propio ser. Este breve evocar, da la pauta para promover Utopías necesarias en cuanto a las TIC, que aunque sabemos que es quimérico hablar de ellas como totalmente abiertas y al alcance de todos, debería ser éste el ideal de los hombres cuya ciencia, hoy en día, permite integrarnos a esta nuestra aldea global, es por ello que ATICA 2016 busca romper aquellos muros virtuales y tecnológicos que impiden una comunicación efectiva en nuestros tiempos. El trabajo del Congreso también semeja a la norma de discusión del Senado de Utopía, donde sus expositores socializan sus lógicas mejores, no hay intervención que no sea fruto de la madurez de un proceso investigativo científico que procure el bien público. Parece igualmente exacto ver como entre los participantes existe una suerte de familia, que aunque adoptiva, por configurarse alrededor de un objetivo común como ATICA 2016, a todos ellos, su dedicación a la ciencia y la tecnología al servicio de los más necesitados, los ha unido. En esta ocasión los autores representan a 11 países: Argentina, Brasil, Colombia, Cuba, Ecuador, España, Francia, Guatemala, México, Panamá y Perú; es notable ver como los frutos académicos expuestos en los 80 artículos científicos aceptados de un total de 115 enviados, 36 abordan la línea de “Aplicación de Tecnologías de la Información y Comunicaciones para mejorar la Accesibilidad” y los restantes 44 son sobre “Aplicación de Tecnologías de la Información y Comunicaciones Avanzadas”, todos ellos superan en mucho las horas normales de trabajo, en resumen es evidente el esfuerzo académico y la convicción por un mundo más accesible desde las TIC .En el relato de Moro, la verdadera felicidad, es la libertad y el desarrollo de valores espirituales, pero también existe posibilidad para la guerra y la esclavitud, asimismo como la ciencia y tecnología pueden ser consideradas herramientas de doble arista; por ello el Congreso enfocó muy bien su debate y su comité científico, formado por académicos internacionales, aseguró que ATICA 2016 esté en torno a la inclusión y a la equidad. Igual satisfacción que dejó en su tiempo Utopía a aquellos a los cuáles le fue develada, encontrarán las gentes de hoy en ATICA 2016. Las memorias del evento ponen de manifiesto nuevas lógicas comunicativas y tecnológicas, pero sobre todo nos dicen que, conforme hace 500 años, es posible soñar en un futuro mejor si la ciencia y tecnología están al servicio del ser humano

    Análisis y prototipado de un componente de software de exploración de datos, integrado a la “Arquitectura de visualización utilizando dashboards”

    Get PDF
    Los sistemas tecnológicos han experimentado cambios radicales en los últimos años, la transición de sistemas aislados e independientes, a un conjunto de sistemas interconectados entre si generando y almacenando información constantemente, ha dado paso a la analítica de datos. Anteriormente las empresas y los sistemas tecnológicos enfocaban sus esfuerzos e investigaciones a buscar formas de conseguir mayor almacenamiento, menor tiempo de respuesta o información disponible permanentemente, pero este paradigma ha ido cambiando gracias a la analítica de datos, la empresa actual no solo requiere sus datos apilados en una base de datos y disponibles para ser extraídos también busca que sus datos muestren información para ser analizada y usada con el fin de obtener ventajas competitivas sobre las demás empresas o para procesos de mejoramientos propios en procesos productivos, para esto la analítica de datos nos brinda en cada una de sus fases, formas de procesar los datos para extraer lo mejor de ellos, una de las fases más importantes es la exploración de datos, la cual se enfoca en brindar al usuario herramientas suficientes para que posterior al proceso de extracción y limpieza de datos, el usuario pueda manipular la información y obtener visualizaciones útiles, otorgando la posibilidad de analizar sus datos tanto de manera individual como también encontrar patrones de comportamiento y relaciones entre las distintas variables identificadas en los datos. El presente proyecto busca analizar y diseñar un componente de software partiendo de una arquitectura definida, brinde a los usuarios la posibilidad de realizar procesos de exploración de datos donde pueda obtener visualizaciones específicas y dar un valor agregado a su información con el fin de apoyar el proceso de toma de decisiones

    Recuperación de historias clínicas electrónicas a partir de un repositorio digital usando una arquitectura orientada a servicios

    Get PDF
    El presente proyecto de tesis tiene por objetivo implementar un servicio Web que permita el registro y la recuperación de las historias clínicas electrónicas (HCEs) a partir de un repositorio centralizado. Cabe resaltar que el presente proyecto considera los siguientes formatos médicos: Formato de Atención Integral (del niño, del adolescente, del adulto y del adulto mayor), Formato de Emergencia, Formato de Consulta Externa, Formato de Hospitalización y Ficha Familiar, Los resultados alcanzados para el logro del objetivo del proyecto son: el diseño de la arquitectura de software que tendrá el componente web, la elección de los mecanismos de seguridad que garanticen la privacidad y autenticación de los datos de las HCEs, y el servicio web implementado. Para definir el diseño de la arquitectura, se tomó en cuenta el estándar internacional de calidad de software ISO/IEC 9126 para determinar los atributos de calidad requeridos en la arquitectura, tales como: adecuación, tolerancia a fallos, capacidad para ser operado, entre otros. Asimismo, se determinaron los estilos y patrones de arquitectura a utilizar: orientado a objetos, orientado a servicios, arquitectura en N-capas, y patrón repositorio. La arquitectura de software definida se basa en el modelo “4+1” que considera 5 vistas: la vista lógica, la vista de implementación, la vista de procesos, la vista física y la vista de casos de uso. Luego de tener el diseño de la arquitectura, se eligieron los siguientes mecanismos de seguridad: pseudonimización que permite garantizar la privacidad de los datos de identificación del paciente, y firma digital con cifrado simétrico y asimétrico que aseguran la integridad y veracidad de la información almacenada en el repositorio. Además, se plantearon alternativas de métodos de seguridad para el control de acceso: seguridad del servicio web mediante certificados, restricción de acceso por IPs, y Tokens. Finalmente, una vez determinados la arquitectura y mecanismos de seguridad que tendrá el web service, se describe la forma en que se implementó dicho servicio web que permite registrar y recuperar las HCEs, y los procesos involucrados (registro de un médico, generación de llaves de seguridad, registro de un paciente, y registro y recuperación de un formato médico). La implementación del servicio web permite dar una alternativa de solución a los problemas generados por el registro en físico de las historias clínicas, tales como: ilegibilidad, deterioro, pérdida de los registros, y, principalmente, la imposibilidad de acceso a las historias clínicas completas de los pacientes. El acceso al servicio web implementado y al repositorio centralizado permite integrar y mantener actualizadas todas las HCEs de los pacientes. Cabe resaltar que para la realización del proyecto se ha tomado en cuenta el marco legal peruano. De esta forma los formatos médicos considerados en el alcance son los más relevantes y tomando como base la Resolución Ministerial N°776-2004. Del mismo modo, para elegir los mecanismos de seguridad, se ha considerado la Ley de Protección de Datos Personales. Los principales beneficios del proyecto de tesis son: ahorro de espacio físico al almacenar las historias de manera digital, se evita la duplicidad, deterioro y pérdida de los registros médicos, y, principalmente, se logra el acceso en simultáneo a las historias clínicas completas de los pacientes desde cualquier institución médica que tenga acceso al servicio web y, por ende, al repositorio centralizado. Finalmente, se puede decir que el presente proyecto puede servir de base para trabajos futuros, entre los cuales se puede destacar: la consideración de formatos médicos adicionales, la integración con el DNI electrónico cuando sea habilitado por RENIEC, y la implementación de un proyecto de inteligencia de negocios que permita la explotación de los datos e información registrada en el repositorio.Tesi

    Modelo inteligente de especificación de la granularidad de aplicaciones basadas en microservicios.

    Get PDF
    Los microservicios son un enfoque arquitectónico y organizativo del desarrollo de software en el que las aplicaciones están compuestas por pequeños servicios independientes que se comunican a través de una interfaz de programación de aplicaciones (API) bien definida, muchas empresas utilizan los microservicios para estructurar sus sistemas, también la arquitectura de microservicios ha sido utilizada en otras áreas como la internet de las cosas (IoT), computación en el borde (edge computing), computación en la nube, desarrollo de vehículos autónomos, telecomunicaciones, sistemas de E-Salud, E-Learning, entre otros. Un gran desafío al diseñar este tipo de aplicaciones es encontrar una partición o granularidad adecuada de los microservicios, proceso que a la fecha se realiza y diseña de forma intuitiva, según la experiencia del arquitecto o del equipo de desarrollo. La definición del tamaño o granularidad de los microservicios es un tema de investigación abierto y de interés, no se han estandarizado patrones, métodos o modelos que permitan definir qué tan pequeño debe ser un microservicio. Las estrategias más utilizadas para estimar la granularidad de los microservicios son: el aprendizaje automático, la similitud semántica, la programación genética y la ingeniería de dominio. En este trabajo de investigación doctoral se propone un modelo inteligente para especificar y evaluar la granularidad de los microservicios que hacen parte de una aplicación; teniendo en cuenta algunas características como la complejidad cognitiva, el tiempo de desarrollo, el acoplamiento, la cohesión y su comunicación. En el capitulo uno se presentan el marco teórico, se plantea el problema de investigación resuelto, junto con las preguntas de investigación que ayudan a resolverlo, también se presentan los objetivos y la metodologia de investigación, por medio de la cual se propone una nueva práctica, un modelo inteligente de especificación de la granularidad de los microservicios llamada ¿Microsevices Backlog¿, también se presentan las fases y métodos de investigación que permitieron resolver las preguntas de investigación planteadas. El captiulo dos presenta el esatado del arte y los trabajos relacionados con el presente trabajo de investigación doctoral; también se identifican las métricas que se han utilizado para definir y evaluar la granularidad de los microservicios. En el capitulo 3 se caracteriza el proceso de desarrollo de aplicaciones basadas en microservicios, explicando su uso en un caso de estudio llamado ¿Sinplafut¿. En el capitulo 4 se plantea la descripción del ¿Microservice Backlog¿, se presenta la definición de cada uno de sus componentes, entre los cuales se encuentran: el componente parametrizador, el componente agrupador (un algoritmo genético y un algoritmo de agrupamiento semántico basado en aprendizaje automático no supervisado), el componente evaluador de métricas y el componente comparador de descomposiciones y de microservicios candidatos, también se presenta la formulación matemática de la granularidad de aplicaciones basadas en microservicios. El capitulo 5 presenta la evaluación de la práctica propuesta, se realizó de forma iterativa usando cuatro casos de estudio, dos ejemplos planteados en el estado del arte (Cargo Tracking and JPet-Store) y dos proyectos reales (Foristom Conferences y Sinplafut), se utilizó el Microservices Backlog para obtener y evaluar los microservicios candidatos de las cuatro aplicaciones. Se realizó un analisis comparativo contra métodos propuestos en el estado del arte y con el diseño basado en el dominio (DDD), el cual es le método más utilizado para definir los microservicios que van a ser parte de una aplicación. El Microservices Backlog obtuvo un bajo acoplamiento, alta cohesión, baja complejidad y reduce la comunicación entre los microservicios, esto comparado con las propuestas del estado del arte y con DDD. Finalmente en el capitulo 6 se presentan las conclusiones, contribuciones, limitaciones y productos obtenidos como resultado de esta tesisDoctoradoDOCTOR(A) EN INGENIERÍ

    Visualización de puntos de interés en un campus universitario usando realidad aumentada

    Get PDF
    Es habitual que en una universidad de prestigio se realicen eventos de importante relevancia tanto para la comunidad universitaria como para personas externas a esta, sin embargo esta información, por lo general, no se encuentra centralizada o no tiene mayor visibilidad en la web, por lo que queda fuera del alcance de las personas a las interesadas en asistir. Además, una persona que no pertenece o que recién se incorpora a la comunidad universitaria no conoce la ubicación de sitios relevantes como las unidades, facultades y bibliotecas; incluso las personas que sí pertenecen a la comunidad universitaria pueden desconocer la ubicación de sitios menos visitados como las direcciones administrativas, centros e institutos. La presente tesis busca desarrollar una aplicación móvil con información centralizada de lugares y eventos de un campus universitario, esta ofrece mostrar la ubicación de puntos de interés mediante el uso de las tecnologías de realidad aumentada y mapas, implementar sistemas de búsqueda de puntos de interés, y mostrar información como descripciones, fotos, enlaces web, enlaces de contacto y lugares relacionados, entre otros. Esta aplicación fue implementada para la Pontificia Universidad Católica del Perú (PUCP) por parte de la Dirección Informática Académica (DIA) con el nombre de “Descubre PUCP”.Tesi
    corecore